1,928 research outputs found

    Study of Jet Substructure in the ATLAS Experiment using Distributed Analysis within Spanish Tier-2 Infrastuctures

    Get PDF
    Study of Jet Substructure in the ATLAS experiment using Distributed Analysis within Spanish Tier-2 Infrastructures (Estudio de Subestructura de Jets en el experimento ATLAS usando Análisis Distribuido dentro de las Infraestructuras del Tier-2 Español) Resumen en español 1. Motivación En el Large Hadron Collider (LHC) se producen partículas consideradas objetos ‘boosted’ donde sus productos de desintegración se concentran en una pequeña parte del detector. El estudio de estos objetos pueden dar pistas de nueva física como en dimensiones extra y supersimetría, así como el estudio del bosón de Higgs. Con el fin de caracterizar estos objetos se han introducido variables de subestructura de jets. Este trabajo recoge el primer estudio de subestructura de jets con datos reales usando el algoritmo antiKt con párametro R=1.0. Todo ello se ha realizado en el marco del Modelo Estándar y a partir de los sucesos reales del experimento ATLAS. El análisis de datos de ATLAS se realiza utilizando las tecnologías Grid y el análisis distribuido. En este estudio de subestructura de jets ha tenido una gran importancia, ya que el trabajo realizado dentro del Tier-2 federado español en el entendimiento de su funcionamiento y la realización de algunas de sus operaciones ha permitido el acceso a cientos de millones de eventos para obtener los resultados mostrados. También ha permitido ayudar en otros estudios de física del experimento ATLAS donde se requería tal experiencia. 2 Introducción El marco teórico en el que se enmarca este trabajo es el Modelo Estándar, que es la interpretación actual del comportamiento de las partículas elementales. Separa las partículas en fermiones (spin semientero) encargadas de constituir la materia, y en bosones (spin entero) que son intercambiadas por los propios fermiones para interaccionar. Los tipos de interacción son fuerte, débil y electromagnética. Éstas dos últimas se unen mediante el formalismo electrodébil cuyos bosones responsables son el fotón, W^+− y Z^0. Este formalismo pronosticaba que todos los bosones no tenían masa lo que no concordaba con los resultados de los experimentos así que se formuló el mecanismo de Higgs que aportaba otro bosón extra. Este modelo está en completo acuerdo con los resultados de los experimentos de aceleradores de partículas, como por ejemplo el último descubrimiento del bosón de Higgs. Sin embargo, siguen varias discrepancias sin resolver como que no se incluye la gravedad, ni se considera que los neutrinos tengan masa o que no hayan candidatos para la materia oscura. Para incluirlas, otros modelos teóricos se han desarrollado denominados en general ’Más allá del modelo Estándar’. Los más populares son Supersimetría, que propone partículas nuevas llamadas ’supersimétricas’, y Dimensiones Extra, que incorporan más dimensiones espaciales a las tres ya conocidas. Estos retos que surgen de una física nueva han sido la razón de la contrucción del acelerador de protones Large Hadron Collider. Está localizado en el CERN, tiene una circunferencia de 27 kilómetros y situado a 100 metros de profundidad. Puede alcanzar una energía en el centro de masas de 14 TeV, a una luminosidad de 10^34 cm^−2s^−1. Tiene cuatro puntos de impacto donde hay experimentos situados para detectar las colisiones. Uno de esos experimentos es ATLAS (A Large Toroidal LHC Apparatus), cuyos datos han sido analizados para este estudio. Su propósito es de carácter general, por tanto cubre una gran variedad de objetivos de la física. Tiene forma cilíndrica con 25 metros de diámetro y 46 metros de longitud con un peso de 7000 toneladas. Sus componentes o subdetectores se distribuyen de forma concéntrica alrededor del haz de protones. El primer subdetector más interior es el encargado de detectar las trazas, también llamado ‘Inner Detector’. El siguiente subdetector es el calorímetro que mide la energía de las partículas, lo que permite identificarlas. El primer componente es el calorímetro electromagnético (‘Liquid Argon’), que detecta la energía de las partículas cargadas y de los fotones. Después se situa el calorímetro hadrónico (‘TileCal’), que detecta la energía de los hadrones. La capa más exterior de subdetectores la forma las cámaras de muones que miden el momento de estas partículas y permiten una mejor identificación gracias a estar rodeados de un campo magnético toroidal. En ATLAS se producen muchos eventos sin interés para la física actual. Para filtrar los eventos no deseados y guardar aquellos eventos que nos aportan información se usa un sistema de ‘trigger’ a tres niveles. El LHC y sus experimentos está suponiendo un desafío computacional como es la necesidad de una enorme capacidad para almacenar 25 PB por año, de gran procesamiento entorno a 100,000 CPUs y de que haya acceso internacional a los datos distribuidos por todo el mundo para 8000 físicos. Los datos procedentes de todos los experimentos del LHC son procesados y analizados por medio de una computación distribuida basada en el modelo Grid. El Grid consiste en compartir recursos computacionales por todos los centros repartidos por todo el mundo que trabajan en el experimento. Para el caso del LHC, se establecieron unos parámetros comunes mediante el projecto Worldwide LHC Computing Grid (WLCG). Los experimentos del LHC han establecido una arquitectura jerárquica basada en ‘Tiers’. Un Tier es un centro computacional capaz de ejecutar la totalidad del software espec ífico para procesar los datos del experimento. Además, el centro ha de ser accesible en el Grid, lo que implica que el software del Grid (middleware) ha de ser instalado y mantenido de tal forma que cada centro pueda actuar como un componente de una red única y mundial. El modelo computacional jerarquizado en el LHC es: un Tier-0 (CERN), 10 Tier-1s (centros nacionales), unos 80 Tier-2s (centros regionales) y varios Tier-3s (recursos a nivel institucional). Dentro de ATLAS, se han ido añadiendo otros requisitos para la computación donde se han adaptado las exigencias del experimento desde que comenzó la toma de datos. Se cambió del modelo jerárquico al modelo ‘Mesh’ (de rejilla) donde las transferencias no necesitan pasar por centros intermedios al calificarse centros de destino como Tier-2 directos (T2D) por su excelente conexión y disponibilidad. Se ha desarrollado software específico por la colaboración ATLAS como por ejemplo Athena para el análisis y procesamiento de los datos. Otro ejemplo de software es la base de datos (‘Database’) que actualiza la información del detector ATLAS en geometr ía y otros parámetros. Con el fin de tener todo preparado y operativo para la toma de datos, se procedió a la verificación de todo el modelo Grid obteniéndose buenos resultados dentro del contexto general del proyecto WLCG. 3 Análisis distribuido El análisis en ATLAS se hace de manera distribuida dentro del Grid. Se desarrolló un sistema para controlar con eficacia todos los procesos relacionados con los trabajos Grid para ATLAS, este sistema se llamó PanDA. Consigue la compatibilidad de todas las granjas computacionales con los requisitos de ATLAS. La colaboración ATLAS ha creado herramientas para facilitar el acceso al análisis distribuido a los usuarios, como son Don Quixote 2 (DQ2) y ATLAS Metadata Interface (AMI) para la gestión de datos, y PanDA-Client y Ganga para el envío de los trabajos al Grid. Concretamente, hemos utilizado Ganga para el estudio de subestructura de jets. La colaboración ATLAS, para mejorar el análisis distribuido, ha implementado una serie de tests basados en modelos de análisis y producción llamados HammerCloud, que excluyen aquellos centros de participar en esas actividades. Otro ejemplo de estas mejoras son las copias automáticas de datos oficiales a otras granjas según la demanda cuya actividad se denomina PanDA Dynamic Data Placement (P2DP). También hay que mencionar la gran tarea de atender las dudas y problemas de los usuarios en análisis distribuido por parte del Distributed Analysis Support Team (DAST). Un ejemplo de cómo se ha usado el análisis distribuido ha sido el realizado para el estudio de subestructura de jets. Ganga se ha usado para enviar el paquete de Athena necesario y elegir la herramienta adecuada para encontrar los datos de entrada que analizar. Si se escogía datos simulados como datos de entrada entonces se usaba DQ2 pero si se trataba de datos reales entonces se elegía AMI porque podía interpretar una lista de mejores eventos bajo criterios de calidad que se denomina Good Run List. Una vez obtenida la información de los datos de entrada, se dividió el trabajo principal en sub-trabajos en base al número de ficheros. Buscó los centros de computación disponibles con los datos. Ganga también aportó instrucciones para que se pidiera una réplica automática de los datos de salida a otro centro, que en este caso se guardó en el Tier-3 del IFIC. Estos trabajos se han distribuido en 36 centros, y el tiempo empleado ha sido de 31 horas para 15 millones de eventos simulados y 36 horas para 158 millones de eventos de datos reales. Estos datos corresponden al año 2010 con energía del centro de masas de 7 TeV. 4 El Tier-2 español federado de ATLAS Con el fin de ilustrar el funcionamiento de un centro Tier-2 de ATLAS, nos hemos centrado en el Tier-2 español. Es una federación de tres centros: IFIC (Valencia), IFAE (Barcelona) y UAM (Madrid). Tiene una contribución del 5% respecto de todos los Tier-2 de ATLAS en recursos computacionales. Sus funciones han cambiado por pasar a otro modelo de computación donde ha recibido y enviado transferencias sin necesidad de ir a través del Tier-1 español, PIC. También los cambios se han notado al poder hacer tareas de calibración, debido a un acceso más flexible de toda la base de datos mediante el Frontier/Squid por parte de los Tier-2s. Según los tests de Service Availability Monitoring (SAM) en el periodo de tres años, los parámetros de fiabilidad y accesibilidad fueron entre 90– 100%, y la accesibilidad específica media de ATLAS se ha evaluado en un 83% para análisis y 92% para producción en el periodo desde septiembre de 2011 hasta abril de 2013. Las transferencias han sido de 14 millones tanto las recibidas como las enviadas, donde se ha transferido un volumen de datos de 9 PB y 3.5 PB respectivamente. Se ha observado que la ocupación del espacio supera 2 PB. Mediante la observación de la evolución del espacio de los space tokens (espacios reservados), se ha reflejado los diferentes usos por cada una de las actividades de ATLAS. La produccion de datos simulados y el análisis son las actividades más importantes en un Tier-2 de ATLAS. 4.7 millones de trabajos de producción llegaron a este Tier-2 estos últimos tres años con una eficiencia alta de 93% que contribuye el 1.78% respecto de todos los trabajos en ATLAS. En la actividad de análisis se ejecutaron 7.2 millones de trabajos, contribuyendo en un 1.76% respecto al total de ATLAS, con una eficiencia del 87.9%. En la instalación, mantenimiento, operación y explotación del Tier-2 federado español han participado un grupo de expertos que lo han hecho posible y eficaz. Algunos de ellos han formado parte del equipo de ayuda para los físicos que realizan los análisis en los tres centros españoles. Este equipo es el denominado User Support en el que yo formo parte activa. 5 Subestructura de jets Finalmente, destacar que se ha colaborado en el estudio de física pionero en ATLAS de la subestructura de jets, que está sirviendo para determinar objetos ‘boosted’ (empujados). Éstos objetos son de interés para la física más allá del Modelo Estándar dentro de ATLAS y LHC. Se caracterizan porque a momentos transversos mucho más grandes que su masa, los productos de desintegración se concentran en una pequeña parte del detector y no pueden diferenciarse. Entonces se aplica la técnica de considerar un único jet que englobe todos los productos de desintegración, para luego estudiar su estructura interna y así poder identificar las partículas pesadas ‘boosted’ y descartar gluones y quarks ligeros. El algoritmo de jet estudiado ha sido el denominado AntiKt, que es el usado por defecto en el detector, aunque el parámetro R se ha aumentado hasta 1.0 para poder englobar todos los productos de la desintegración. Se han escogido como variables de subestructura de jets las más fundamentales, que son la masa intrínseca del jet y las ‘splitting scales’ (escalas de división). Estas últimas se obtienen deshaciendo los últimos pasos del algoritmo Kt para pasar de un jet a dos partes (√d_12) y de dos a tres partes (√d_23). Se han analizado muestras simuladas de procesos de interacción fuerte con diferentes generadores de Monte Carlo y datos reales procedentes del detector ATLAS obtenidas en el año 2010 con una energía en el centro de masas de 7 TeV y con una luminosidad de 35.0 ± 1.1 pb^−1. Las variables de subestructura se ven afectadas por las colisiones adicionales que se originan (‘pile-up’). Al estudiar los primeros datos y fijar que el número de vértices primarios sea uno, hemos conseguido evitar el efecto que el ‘pile-up’ hace en estas variables. La calibración usada se ha obtenido mediante Monte Carlo (generador usado es Pythia), comparando el valor a nivel hadrónico con el de los jets reconstruidos de las variables de subestructura, los cuales dependen de la masa, la energía y la ‘pseudorapidity’ eta. Las contribuciones más importantes en los errores sistemáticos han sido en la escala y resolución del momento transverso del jet. Se han incluido además errores sistemáticos de la escala y resolución de la masa del jet y las ‘splitting scales’. Para validar los errores sistemáticos de escala se han usado los jets sacados del detector de trazas, que se han comparado con los jets del calorímetro usando el mismo algoritmo de jets. Para calcular los errores sistemáticos en la resolución se ha usado varios modelos de Monte Carlo con parámetros variados como el tipo de generador, el modelo teórico de la formación de hadrones e incluso cambiando la geometría del detector. Se ha corregido el efecto de la resolución y la aceptancia del detector, y así conseguir que pueda ser comparado con predicciones teóricas. Para ello se ha usado una técnica de desdoblamiento con matrices denominado Iterative Dynamically Stabilised unfolding. La técnica consiste en crear una matriz de conversión con datos simulados comparando los valores a nivel de generación y a nivel detector, de donde se obtienen las parejas de jets que coinciden. La comparación se hace para cada intervalo de momento transverso. Para obtener los datos corregidos se ha multiplicado la eficiencia de la coincidencia en la parte reconstruida luego se ha multiplicado por la matriz de conversión y dividido por la eficiencia de la coincidencia en la parte a nivel de generación. Se han obtenido como resultados las distribuciones de la sección eficaz normalizada en función de las variables de subestructura. El generador Pythia ha descrito bien los datos reales, sin embargo, no ha pasado lo mismo con el generador Herwig++. De entre las variables de subestructura, las ‘splitting scales’ han concordado mejor con los datos que la masa del jet. 6 Conclusiones Este estudio ha mostrado los primeros resultados de subestructura de jets para el algoritmo AntiKt con R=1.0 en el experimento ATLAS y a través de un análisis distribuido mediante computación Grid. El modelo computacional de ATLAS ha evolucionado de un modelo MONARC a otro ‘Mesh’ ante las mejoras de conexión a internet que ha afectado positivamente a las operaciones de los Tier-2s. El objetivo final es interconectar todos los Tiers hasta que todo se comporte como una única Cloud. El análisis distribuido en ATLAS se está realizando con éxito gracias a las herramientas desarrolladas por la colaboración, que facilitan el uso del Grid. Las herramientas para la gestión de datos y enviar los trabajos de análisis permiten un manejo más fácil del Grid para los físicos de ATLAS, como es el caso de Ganga que se ha usado para este trabajo. A medida que se han tomado los datos en el experimento y ha aumentado el uso de las granjas que conforman la computación de ATLAS en la actividad de análisis, se ha ido mejorando el análisis distribuido aplicando nuevas ideas. También se está dando un servicio de apoyo a los usuarios de ATLAS por medio de DAST, que facilita la resolución de problemas y aclaración de dudas en el tema de análisis distribuido. Se ha presentado un caso de análisis distribuido que representa el proceso utilizado para la obtención de los datos del estudio de subestructura de jets. Se han enviado un total de 11373 sub-trabajos (3205 procesaron datos simulados y 8168 datos reales). Se han distribuido a 36 granjas y ejecutado en un periodo de tiempo de 31 horas para 15 millones de eventos simulados y 36 horas para 158 millones de eventos de datos reales siendo sólo los pertenecientes al 2010 con energía del centro de masas de 7 TeV. Hemos mostrado como ejemplo de Tier, el Tier-2 federado español de ATLAS. Su contribución del 5% satisface todos los requisitos de un Tier-2 en accesibilidad (entre 90 y 100%), transferencias (14 millones de transferencias realizadas), almacenamiento (ocupación de más de 2PB) y procesamiento (4.7 millones de trabajos en producción y 7.2 millones en análisis). Observando estas operaciones durante tres años se ha apreciado cómo ha influido el cambio de modelo y las propias actividades de ATLAS al Tier-2. Además el trabajo realizado ha dado lugar a el User Support que presta ayuda a usuarios de los tres centros en temas de análisis distribuido y computación Grid. En cuanto a la parte de análisis de física: Las variables de subestructura de jets que se han medido son la masa del jet y las ‘splitting scales’. Han sido las primeras medidas en el LHC. Las predicciones de Monte Carlo con generador Pythia han estado en concordancia con los datos del experimento. El generador Herwig++ no ha reproducido bien la distribución de la masa del jet, pero se ha adaptado para las splitting scales. La variable de subestructura con peor concordancia con Monte Carlo ha sido la masa del jet. Las splitting scales han aportado errores sistemáticos pequeños. Existe una dependencia de las variables de subestructura con el ‘pile-up’ y para reducir ese efecto hemos fijado en uno el número de vértices primarios. En estudios posteriores se han desarrollado métodos que han disminuido en parte esa dependencia. Se han corregido las distribuciones para que pueda ser comparada con modelos teóricos. De hecho, se pueden consultar estudios teóricos en los que se ha pretendido obtener la masa de los jets. Desde la publicación de este resultado, grupos de física que realizan estudios de resonancias top-antitop han usado este trabajo para buscar quarks top ‘boosted’ del alto momento. Estas técnicas aumentan la sensibilidad en búsquedas de nueva física.Study of Jet Substructure in the ATLAS experiment using Distributed Analysis within Spanish Tier-2 Infrastructures Summary in English 1 Motivation The first study of jet substructure on LHC data was performed by the ATLAS experiment. The jet algorithm chosen was AntiKt with R-parameter=1.0. This study has been important to check the working of the substructure variables which allow to distinguish boosted objects from background. These objects are produced abundantly at LHC and are expected to gain relevance in future operation at large energy. In this study, the computing part has had a great importance because the work done into the ATLAS Spanish Tier-2 federation on understanding its performance and its operations. This has allowed the access of hundred of million of events to obtain the results using Grid technologies for Distributed Analysis. Also, this activity helped in other physics studies of ATLAS experiment. 2 Introduction This work is framed within the context of the Standard Model (SM). The SM explains the interactions between the smallest constituents of matter. The SM classifies the constituents into fermions (half-integer spin) and bosons (integer spin). In Table 1.1 elementary particles are listed. Fermions can be divided in leptons and quarks grouped in three generations which are different from mass. Quarks have fractional electric charge and also color charge. The SM describes the strong, weak and electromagnetic interactions. The last two are unified by the electroweak formalism whose bosons are photon, W+− and Z0. This model predicts all bosons are massless which is in disagreement with experiments. To solve that, the Higgs mechanism was formulated adding an extra boson. The strong interaction takes over the quarks confinement by the color charge and the exchanged particles are gluons. The Standard Model is in agreement with the most of the experiments results. The last recent discovery of the Higgs boson puts the SM on an even more solid empirical basis. However, there is some evidence of effects that the Standard Model cannot explain such as the neutrino mass and the presence of dark matter. Extensions have been proposed among which the most popular are Supersymmetry and Extra Dimensions which incorporates more spatial dimensions. They are grouped under the expression “Beyond Standard Model” (BSM). The Large Hadron Collider (LHC) is located at CERN, with a circumference of 27 kilometres, at 100 metres of depth. It can reach a center-of-mass energy of 14 TeV, at a luminosity of 10^(34)cm^(−2)s^(−1). The LHC has four impact points where experiments are situated to detect collisions. One of these experiments is ATLAS (A Large Toroidal LHC Apparatus), the detector which has produced the data studied in this work. It is a genera

    Varón de 50 años, VIH positivo, con trombopenia y rectorragias

    Get PDF
    Se trata de un varón de 50 años, VIH no controlado, que ingresó en el hospital por un shock séptico de origen respiratorio. Además presentaba episodios repetidos de rectorragias sin objetivar causa pese a pruebas diagnósticas dirigidas, así como trombopenia persistente. Se realizaron pruebas endoscópicas invasivas sin encontrar la causa, así como pruebas de imagen abdominal (TAC y aortografía) que no mostraron alteraciones. Ante una PCR para CMV positiva en sangre se administró tratamiento con foscarnet, persistiendo las rectorragias y la trombopenia. Ante la persistencia de las rectorragias, se valoró intervención quirúrgica, que se desestimó dado el alto riesgo quirúrgico. El caso se presenta en el foro de las sesiones clinicopatológicas del Hospital Universitario Son Espases.This is a case of a 50-year-old VIH positive male with no medical monitoring, who was admitted to the hospital with septic shock due to an underlying respiratory cause. He also presented repeated rectal bleedings of unknown origin and thrombopenia. Upper and lower endoscopies, abdominal CAT scans and aortography were all negative. Treatment with foscarnet was started after a CMV positive serum -PCR with no improvement. Surgery was not considered, given the high surgical risk. The case is discussed in the context of a clinicopathological general session at Son Espases Universitary Hospital

    The INCA System: A Further Step Towards a Telemedical Artificial Pancreas

    Get PDF
    Biomedical engineering research efforts have accomplished another level of a ldquotechnological solutionrdquo for diabetes: an artificial pancreas to be used by patients and supervised by healthcare professionals at any time and place. Reliability of continuous glucose monitoring, availability of real-time programmable insulin pumps, and validation of safe and efficient control algorithms are critical components for achieving that goal. Nevertheless, the development and integration of these new technologies within a telemedicine system can be the basis of a future artificial pancreas. This paper introduces the concept, design, and evaluation of the ldquointelligent control assistant for diabetes, INCArdquo system. INCA is a personal digital assistant (PDA)-based personal smart assistant to provide patients with closed-loop control strategies (personal and remote loop), based on a real-time continuous glucose sensor (Guardian RT, Medtronic), an insulin pump (D-TRON, Disetronic Medical Systems), and a mobile general packet radio service (GPRS)-based telemedicine communication system. Patient therapeutic decision making is supervised by doctors through a multiaccess telemedicine central server that provides to diabetics and doctors a Web-based access to continuous glucose monitoring and insulin infusion data. The INCA system has been technically and clinically evaluated in two randomized and crossover clinical trials showing an improvement on glycaemic control of diabetic patients

    Implementación del modelo TPACK (Technological Pedagogical Content Knowledge) en un entorno virtual de enseñanza y aprendizaje de la Farmacocinética en su perspectiva clínica

    Get PDF
    Implementación de metodologías de enseñanza-aprendizaje universitario activo e integrado gracias al desarrollo y aplicación de un TPACK (Technological Pedagogical Content Knowledge) en entornos virtuales de enseñanza y aprendizaje (EVEA). Este modelo se basa en la triada (pedagogía-contenido-tecnología) y constituye una alternativa eficaz a los métodos docentes clásicos. El objetivo es optimizar los procesos de enseñanza-aprendizaje de la farmacocinética clinica para estudiantes de la asignatura de Farmacología General

    Male-specific features are reduced in Mecp2-null mice: analyses of vasopressinergic innervation, pheromone production and social behaviour

    Get PDF
    This is a pre-print of an article published in Brain Structure and Function. The final authenticated version is available online at: https://doi.org/10.1007/s00429-020-02122-6Deficits in arginine vasopressin (AVP) and oxytocin (OT), two neuropeptides closely implicated in the modulation of social behaviours, have been reported in some early developmental disorders and autism spectrum disorders. Mutations in the X-linked methyl-CpG-binding protein 2 (MECP2) gene are associated to Rett syndrome and other neuropsychiatric conditions. Thus, we first analysed AVP and OT expression in the brain of Mecp2-mutant mice by immunohistochemistry. Our results revealed no significant differences in these systems in young adult Mecp2-heterozygous females, as compared to WT littermates. By contrast, we found a significant reduction in the sexually dimorphic, testosterone-dependent, vasopressinergic innervation in several nuclei of the social brain network and oxytocinergic innervation in the lateral habenula of Mecp2-null males, as compared to WT littermates. Analysis of urinary production of pheromones shows that Mecp2-null males lack the testosterone-dependent pheromone darcin, strongly suggesting low levels of androgens in these males. In addition, resident-intruder tests revealed lack of aggressive behaviour in Mecp2-null males and decreased chemoinvestigation of the intruder. By contrast, Mecp2-null males exhibited enhanced social approach, as compared to WT animals, in a 3-chamber social interaction test. In summary, Mecp2-null males, which display internal testicles, display a significant reduction of some male-specific features, such as vasopressinergic innervation within the social brain network, male pheromone production and aggressive behaviour. Thus, atypical social behaviours in Mecp2-null males may be caused, at least in part, by the effect of lack of MeCP2 over sexual differentiation

    Inclusion of calcium phosphate does not further improve in vitro and in vivo osteogenesis in a novel, highly biocompatible, mechanically stable and 3D printable polymer

    Get PDF
    At a time of unpredictable challenges for health, one trend is certain: there is an exceedingly high demand for functional implants, particularly bone grafts. This has encouraged the emergence of bone tissue engineering substitutes as an alternative method to conventional bone grafts. However, the current approaches in the field face several limitations that have prevented the ultimate translation into clinical settings. As a result, many attempts have been made to fabricate synthetic bone implants that can offer suitable biological and mechanical properties.Light curable methacrylate-based polymers have ideal properties for bone repair. These materials are also suitable for 3D printing which can be applicable for restoration of both function and aesthetics. The main objective of this research was to investigate the role of calcium phosphate (CaP) incorporation in a mechanically stable, biologically functional and 3D printable polymer for the reconstruction of complex craniofacial defects. The experimental work initially involved the synthesis of (((((((((((3R,3aR,6S,6aR)- hexahydrofuro[3,2-b]furan-3,6-diyl)bis(oxy))bis(ethane-2,1- 48 diyl))bis(oxy))bis(carbonyl))bis(azanediyl))bis(3,3,5-trimethylcyclohexane-5,1- 49 diyl))bis(azanediyl))bis(carbonyl))bis(oxy))bis(ethane-2,1-diyl) bis(2-methylacrylate) referred to as CSMA and fabrication of composite discs via a Digital Light Printing (DLP) method. The flow behaviour of the polymer as a function of CaP addition, surface remineralisation potential, in vitro cell culture, using MC3T3 and Adipose-Derived Mesenchymal Stem Cells (ADSCs) and ex ovo angiogenic response was assessed. Finally, in vivo studies were carried out to investigate neo-bone formation at 4- and 8-weeks post-implantation. Quantitative micro-CT and histological evaluation did not show a higher rate of bone formation in CaP filled CSMA composites compared to CSMA itself. Therefore, such polymeric systems hold promising features by allowing more flexibility in designing a 3D printed scaffold targeted at the reconstruction of maxillofacial defects

    Manual de casos clínicos de Farmacología

    Get PDF
    Este manual de casos clínicos de Farmacología, creado como recurso educativo en abierto (REA) para garantizar una educación inclusiva, equitativa y de calidad, constituye una excelente herramienta didáctica para los procesos de enseñanza y aprendizaje en esta área de conocimiento. En este manual se recopilan un total de 15 casos clínicos agrupados en tres grandes bloques: farmacología del sistema nervioso periférico, farmacología de los mediadores celulares y farmacología de los ejes neuroendocrinos. Estos casos clínicos permiten organizar y relacionar los conocimientos adquiridos sobre farmacología, así como ampliarlos y aplicarlos contribuyendo a la consolidación de un aprendizaje significativo integrado y al desarrollo de competencias deductivas y resolutivas.Depto. de Farmacología, Farmacognosia y BotánicaFac. de Farmaciaunpu

    Protectores ante la violencia escolar en contexto dominicano: un modelo explicativo desde la psicología positiva

    Get PDF
    Some aggressive behaviors of adolescents in schools became a particularly important problem in Latin American and Caribbean region. Specifically, in the Dominican Republic studies report of prevalence   from 21.8 to 33.6 %. The aim of this research is to study if some variables from positive psychology    such as self-concept, dispositional hope, entrepreneurial attitudes, and values can act as protective factors for such violent behaviors. In order to reach our goal, a study on a sample of 117 secondary students was carried out. Assessment tool kit included, together with information on socio-demographic data, the Violent Behaviors on School Scale, the Dispositional Hope Scale, the Self-Concept 5 Scale,    the Entrepreneurial Attitudes Scale for Students, and the Personal Values Questionnaire. To evaluate the relation among the different dimensions, a MIMIC (multiple indicators multiple causes) structure equation model was estimated. Under this good fitting model, hope, entrepreneurial attitudes, personal values  and four dimensions of self-concept successfully predict violent behavior in school approached through    a rough measurement model based on six dimensions. The model results could offer useful information from two perspectives: a) Empirically approaching to the construct school violence with satisfactory factor loadings in this latent variable; b) Identifying predictors of violence, as hope, empathy, risk-taking in context of entrepreneurship, mixed values (combination of individual and collective ones) and family self- concept. Discussion section encourages the need to work through positive psychology variables trying to decrease the presence of violent behavior in schools in the Dominican  Republic.Determinados comportamientos agresivos de los adolescentes preocupan en escuelas de todo el mundo, siendo un problema de especial relevancia en América Latina y región Caribe. En concreto, en la República Dominicana los estudios hablan de prevalencias del 21.8 al 33.6%. El objetivo de este estudio es conocer en qué medida variables como el autoconcepto, la esperanza disposicional, las actitudes emprendedoras y los valores pueden actuar como factores protectores frente a la ocurrencia de dichas conductas violentas. Para ello, se llevó a cabo un estudio en una muestra de 117 estudiantes dominicanos de secundaria. La evaluación incluyó, además de los datos socio-demográficos, escalas de medida de conductas violentas en la escuela, esperanza disposicional, autoconcepto forma 5, actitudes emprendedoras para estudiantes y valores personales. Para evaluar la relación entre las diversas dimensiones, se planteó y estimó un modelo de ecuaciones estructurales MIMIC (multiple indicators multiple causes). Bajo este modelo, la esperanza, las actitudes emprendedoras, los valores personales y cuatro dimensiones del autoconcepto predicen con buen ajuste la conducta violenta en la escuela, correctamente aproximada a través de un modelo de medida en seis dimensiones. Los resultados del modelo ofrecen información útil desde dos perspectivas: a) Acercamiento empírico al constructo violencia escolar con saturaciones factoriales satisfactorias para los indicadores de la variable latente o factor; b) Identificación de variables predictoras de la violencia: esperanza, empatía, toma de riesgos en contexto de emprendimiento, valores mixtos (combinación de individual y colectivo) y autoconcepto familiar. En la discusión se recoge la necesidad de trabajar desde la Psicología Positiva las variables halladas más relevantes, para disminuir las conductas violentas en las escuelas de la República Dominicana
    corecore